Varias variables aleatorias

Introducción

Muchos experimentos aleatorios involucran varias variables aleatorias.

Por ejemplo, dado un individuo de 30 años escogido al azar de una cierta población, medir su altura y su peso conjuntamente.

Otro ejemplo más complejo sería la medición continuada de un fenómeno aleatorio que se repite en el tiempo, como sería medir la temperatura media un día determinado del año, por ejemplo el día 1 de enero en un cierto lugar.

La variable aleatoria que nos da la medición en 10 años sería una variable aleatoria de varias variables que involucra 10 variables aleatorias supuestas independientes e idénticamente distribuïdas, lo que en estadística inferencial se le llama una muestra aleatoria simple.

Dos variables aleatorias. Definición

Recordemos que una variable aleatoria \(X\) es una aplicación que toma valores numéricos para cada resultado de un experimento aleatorio: \[ \begin{array}{rl} X: \Omega & \longrightarrow \mathbb{R}\\ w & \longrightarrow X(w). \end{array} \] A partir de la definición anterior, generalizamos la noción de variable aleatoria unidimensional a variable aleatoria bidimensional:

Definición de variable aleatoria bidimensional: Dado un experimento aleatorio con espacio muestral \(\Omega\), definimos variable aleatoria bidimensional \((X,Y)\) a toda aplicación \[ \begin{array}{rl} X: \Omega & \longrightarrow \mathbb{R}^2\\ w & \longrightarrow (X(w),Y(w)). \end{array} \]

Dos variables aleatorias. Ejemplos

Ejemplo

Consideremos el experimento aleatorio de lanzar dos dados no trucados.

Sea \(S\) la suma de los resultados obtenidos y \(P\) el producto de los mismos.

La variable aleatoria \((S,P)\) que asigna a cada resultado \(w=(x_1,x_2)\) donde \(x_1\) es el resultado obtenido per el primer dado y \(x_2\), el resultado obtenido por el segundo los valores: \(S(w)=x_1+x_2\) y \(P(w)=x_1\cdot x_2\) seria una variable aleatoria bidimensional.

El suceso \(\{2\leq S\leq 4,\ 3\leq P\leq 6\}\) seria: \[ \{2\leq S\leq 4,\ 3\leq P\leq 6\} = \{(1,3),(3,1),(2,2)\}. \]

Ejemplo

Consideremos el experimento aleatorio de elegir al azar un estudiante de primer curso de grado. Sea \(w\) el estudiante elegido. Consideremos la variable aleatoria \((H,W)\) que asigna a dicho estudiante \(w\), \(H(w):\) la altura de dicho estudiante en cm. y \(W(w):\) el peso de dicho estudiante en kg.

Estamos interesado en sucesos del tipo \(A=\{H\leq 176,\ W\leq 85\}\), o sea, el conjunto de estudiantes que miden menos de 1.76 m. y que pesan menos de 85 kg.

Dos variables aleatorias. Introducción

Los sucesos que se derivan de una variable aleatoria bidimensional estan especificados por regiones del plano. Veamos algunos ejemplos:

Suceso: \(\{X+Y\leq 1\}\). Sería la zona sombreada del gráfico siguiente:

Dos variables aleatorias. Introducción

Suceso: \(\{X^2+Y^2\leq 4\}\). Sería la zona sombreada del gráfico siguiente:

Dos variables aleatorias. Introducción

Suceso: \(\{\max\{X,Y\}\geq 1\}\). Sería la zona sombreada del gráfico siguiente:

Dos variables aleatorias. Introducción

La probabilidad de que la variable bidimensional pertenezca a una cierta región del plano \(B\) se define de la forma siguiente: \[ P((X,Y)\in B)=P\{w\in \Omega,\ |\ (X(w),Y(w))\in B\}, \] o sea, la probabilidad anterior es la probabilidad del suceso formado por los elementos de \(w\in\Omega\) que cumplen que su imagen por la variable aleatoria bidimensional \((X,Y)\) esté en \(B\).

Por ejemplo, si consideramos \(B=\{X+Y\leq 1\}\), \(P((X,Y)\in B)\) sería la probabilidad del suceso formado por los elementos \(w\) de \(\Omega\) tal que la suma de las imágenes por \(X\) e \(Y\) sea menor o igual que 1: \(X(w)+Y(w)\leq 1\).

Función de distribución conjunta

Función de distribución conjunta. Introducción

Dada una variable aleatoria bidimensional \((X,Y)\), queremos estudiar cómo se distruye la probabilidad de sucesos cualesquiera de la forma \(\{(X,Y)\in B\}\), donde \(B\) es una región del plano.

Para ello, definimos la función de distribución conjunta:

Definión de función de distribución conjunta: Dada una variable bidimensional \((X,Y)\), definimos su función de distribución conjunta \(F_{XY}\) a la función definida sobre \(\mathbb{R}^2\) de la manera siguiente: \[ \begin{array}{rl} F_{XY}: \mathbb{R}^2 & \longrightarrow \mathbb{R}\\ (x,y) & \longrightarrow F_{XY}(x,y)=P(X\leq x,\ Y\leq y). \end{array} \]

Función de distribución conjunta. Introducción

O sea, dado un valor \((x,y)\in \mathbb{R}^2\), consideramos la región del plano \((-\infty,x]\times (-\infty,y]\):

Función de distribución conjunta. Introducción

Entonces la función de distribución conjunta en el valor \((x,y)\) es la probabilidad del suceso formado por aquellos elementos tal que la imagen por la variable aleatoria bidimensional \((X,Y)\) caen dentro de la región sombreada en el gráfico anterior:

\[ \begin{array}{rl} F_{XY}(x,y) & =P\{w\in\Omega,\ |\ (X(w),Y(w))\in (-\infty,x]\times (-\infty,y]\} \\ & = P\{w\in\Omega,\ |\ X(w)\leq x,\ Y(w)\leq y\}. \end{array} \]

Función de distribución conjunta. Propiedades

Sea \((X,Y)\) una variable bidimensional. Sean \(F_{XY}\) su función de distribución conjunta. Dicha función satisface las propiedades siguientes:

  • La función de distribución conjunta es no decreciente en cada una de las variables: \[ \mbox{Si }x_1\leq x_2, \mbox{ y }y_1\leq y_2,\mbox{ entonces, }F_{XY}(x_1,y_1)\leq F_{XY}(x_2,y_2). \]

  • \(F_{XY}(x,-\infty)=F_{XY}(-\infty,y)=0,\) \(F_{XY}(\infty,\infty)=1\), para todo \(x,y\in\mathbb{R}\).

Función de distribución conjunta. Propiedades

  • Las variables aleatorias \(X\) e \(Y\) se llaman variables aleatorias marginales y sus funciones de distribución \(F_X\) y \(F_Y\) pueden hallarse de la forma siguiente como función de la función de distribución conjunta \(F_{XY}\): \[ F_X(x)=F_{XY}(x,\infty),\ F_Y(y)=F_{XY}(\infty,y), \] para todo \(x,y\in\mathbb{R}\).

  • La función de distribución conjunta es continua por el “norte” y por el “este”: \[ \begin{array}{rl} \lim_{x\to a^+}F_{XY}(x,y) & =\lim_{x\to a, x> a}F_{XY}(x,y)=F_{XY}(a,y), \\ \lim_{y\to b^+}F_{XY}(x,y) & =\lim_{y\to b, y> b}F_{XY}(x,y)=F_{XY}(x,b), \end{array} \] para todo \(a,b\in\mathbb{R}\). Ver figura siguiente.

Función de distribución conjunta. Propiedades

Función de distribución conjunta. Propiedades

  • Dados \(x_1<x_2\) y \(y_1<y_2\), consideramos \(B\) el rectángulo de vértices \((x_1,y_1)\), \((x_1,y_2)\), \((x_2,y_1)\) y \((x_2,y_2)\): \((x_1,x_2]\times (y_1,y_2]\). Entonces, \[ \begin{array}{rl} P((X,Y)\in B) = & F_{XY}(x_2,y_2)-F_{XY}(x_2,y_1)-F_{XY}(x_1,y_2)\\ & +F_{XY}(x_1,y_1). \end{array} \]

Función de distribución conjunta. Propiedades

Función de distribución conjunta. Ejemplo

Ejemplo

Consideremos una variable aleatoria bidimensional \((X,Y)\) con función de distribución conjunta: \[ F_{XY}(x,y)=\begin{cases} 0, & \mbox{si }x<0,\mbox{ o }y<0,\\ xy, & \mbox{si }0\leq x\leq 1,\ 0\leq y\leq 1, \\ x, & \mbox{si }0\leq x\leq 1,\ y> 1, \\ y, & \mbox{si }0\leq y\leq 1,\ x> 1, \\ 1, & x\geq 1,\ y\geq 1. \end{cases} \] En la figura siguiente, hemos representado por zonas cómo está definida \(F_{XY}\).

Función de distribución conjunta. Ejemplo

Función de distribución conjunta. Ejemplo

Comprobemos algunas de las propiedades que hemos enunciado anteriormente:

  • Claramente \(F_{XY}(x,-\infty)=F_{XY}(-\infty,y)=0\) ya que \(F_{XY}(x,y)=0\) si \(x<0\) o \(y<0\). Por tanto, si hacemos tender \(x\) o \(y\) hacia \(-\infty\), obtendremos que \(F_{XY}(x,-\infty)=F_{XY}(-\infty,y)=0\).

  • De la misma manera \(F_{XY}(\infty,\infty)=1\) ya que \(F_{XY}(x,y)=1\) para \(x>1\) e \(y>1\). Por tanto, si hacemos tender \(x\) e \(y\) hacia \(\infty\), obtendremos \(F_{XY}(\infty,\infty)=1\).

  • Hallemos las marginales: \[ F_X(x)=F_{XY}(x,\infty)=\begin{cases} 0, & \mbox{ si }x<1,\\ x, & \mbox{ si } 0\leq x\leq 1,\\ 1, & \mbox{ si } x>1. \end{cases} \] Para ver la expresión anterior basta trazar la recta vertical \(X=x\) en el gráfico anterior y ver hacia dónde tiende a medida que la \(y\) se va hacia \(\infty\).

¿Habéis averiguado cuál es la distribución de \(X\)?

Función de distribución conjunta. Ejemplo

¡Efectivamente!, \(X\) es la uniforme en el intervalo \((0,1)\).

Dejamos como ejercicio hallar la distribución marginal para la variable \(Y\).

  • Comprobemos que \(F_{XY}\) es continua por el “norte” y el “este” en el punto \((1,1)\) que sería un punto problemático: \[ \lim_{x\to 1,x> 1} F_{XY}(x,1)=\lim_{x\to 1,x> 1} 1 = F_{XY}(1,1),\ \lim_{y\to 1,y> 1} F_{XY}(1,y)=\lim_{y\to 1,y> 1} 1 = F_{XY}(1,1). \]

Función de distribución conjunta. Ejemplo

Ejemplo: lanzamiento de dos dados no trucados

Consideremos el experimento aleatorio de lanzar dos dados no trucados.

Sea \((S,P)\) la variable aleatoria bidimensional que nos da la suma y el producto de los resultados obtenidos, respectivamente.

La función de distribución conjunta en el valor \((3,4)\) será: \[ F_{XY}(3,4) = P(S\leq 3,\ P\leq 4)=P\{(1,1), (1,2), (2,1) \}=\frac{3}{36}=\frac{1}{12}\approx 0.083, \] ya que \(\Omega\) tiene en total \(36\) resultados: \[ \Omega =\{(1,1),(1,2).\ldots, (6,6)\}. \] y los únicos resultados en los que la suma es menor o igual que 3 y el producto menor o igual que 4 son \((1,1)\) (suma 2 producto 1), \((1,2)\) (suma 3 y producto 2) y \((2,1)\) (suma 3 y producto 2).

Función de distribución conjunta. Ejemplo

Ejercicio

Hallar el valor de la función de distribución conjunta para la variable aleatoria bidimensional anterior \((S,P)\) en los valores \((i,j)\) siguientes: \((4,5),\ (4,9),\ (5,9),\ (6,10)\).

Variables aleatorias bidimensionales discretas

Variables aleatorias bidimensionales discretas. Introducción

Definición de variable aleatoria bidimensional discreta: Sea \((X,Y)\) una variable aleatoria bidimensional. Diremos que es discreta cuando su conjunto de valores en \(\mathbb{R}^2\), \((X,Y)(\Omega)\) es un conjunto finito o numerable.

En la mayoría de los casos, dicho conjunto será un subconjunto de los enteros naturales.

Variables aleatorias bidimensionales discretas. Ejemplo

Ejemplo

La variable aleatoria bidimensional anterior que nos daba la suma y el producto de los resultados obtenidos por los dos dados, respectivamente es discreta ya que: \[ \begin{array}{rl} (S,P)(\Omega) & =\{(2,1),(3,2),(4,3),(4,4),(5,4),(5,6),(6,5),(6,8),(6,9),(7,6),(7,10),(7,12),(8,12),\\ & (8,15),(8,16),(9,18),(9,20),(10,24),(10,25),(11,30),(12,36)\}. \end{array} \]

Variables aleatorias bidimensionales discretas. Ejemplo

Ejercicio

Comprobar que el conjunto \((S,P)(\Omega)\) dado por el ejemplo coincide con la expresión dada. O sea, hallar el conjunto \((S,P)(\Omega)\): \[ \begin{array}{rl} (S,P): \Omega & \longrightarrow \mathbb{R}^2\\ (1,1) & \longrightarrow (S(1,1),P(1,1))=(2,1),\\ (1,2) & \longrightarrow (S(1,2),P(1,2))=(3,2),\\ \vdots & \vdots \\ (6,6) & \longrightarrow (S(6,6),P(6,6))=(12,36). \end{array} \]

Función de probabilidad conjunta

Definición de función de probabilidad conjunta: Dada una variable aleatoria bidimensional discreta \((X,Y)\) con \((X,Y)(\Omega)=\{(x_i,y_j),\ i=1,2,\ldots,\ j=1,2,\ldots,\}\), definimos la función de probabilidad discreta \(P_{XY}\) para un valor \((x,y)\in\mathbb{R}^2\) de la siguiente forma: \[ \begin{array}{rl} P_{XY}: \mathbb{R}^2 & \longrightarrow \mathbb{R}\\ (x,y) & \longrightarrow P_{XY}(x,y)=P(X= x,\ Y= y). \end{array} \]

Observación: Si \((x,y)\not\in (X,Y)(\Omega)\), el valor de la función de probabilidad conjunta en \((x,y)\) en nulo: \(P_{XY}(x,y)=0\), ya que, en este caso, el conjunto \(\{w\in\Omega,\ | (X(w),Y(w))=(x,y)\}=\emptyset\) ya que recordemos \((x,y)\not\in (X,Y)(\Omega)\).

Función de probabilidad conjunta

Por tanto, de cara a calcular \(P_{XY}\) basta calcular \(P_{XY}(x_i,y_j)\) para \((x_i,y_j)\in (X,Y)(\Omega)\):

\(X/Y\) \(y_1\) \(y_2\) \(\ldots\) \(y_N\)
\(x_1\) \(P_{XY}(x_1,y_1)\) \(P_{XY}(x_1,y_2)\) \(\ldots\) \(P_{XY}(x_1,y_N)\)
\(x_2\) \(P_{XY}(x_2,y_1)\) \(P_{XY}(x_2,y_2)\) \(\ldots\) \(P_{XY}(x_2,y_N)\)
\(\vdots\) \(\vdots\) \(\vdots\) \(\vdots\) \(\vdots\)
\(x_M\) \(P_{XY}(x_M,y_1)\) \(P_{XY}(x_M,y_2)\) \(\ldots\) \(P_{XY}(x_M,y_N)\)

Función de probabilidad conjunta. Ejemplo

Ejemplo de la suma y el producto de los resultados del lanzamiento de dos dados

La función de probabilidad conjunta será:
\(S/P\) 1 2 3 4 5 6 8 9 10 12 15 16 18 20 24 25 30 36
2 \(\frac{1}{36}\) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
3 0 \(\frac{2}{36}\) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
4 0 0 \(\frac{2}{36}\) \(\frac{1}{36}\) 0 0 0 0 0 0 0 0 0 0 0 0 0 0
5 0 0 0 \(\frac{2}{36}\) 0 \(\frac{2}{36}\) 0 0 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 \(\frac{2}{36}\) 0 \(\frac{2}{36}\) \(\frac{1}{36}\) 0 0 0 0 0 0 0 0 0 0

Función de probabilidad conjunta. Ejemplo

\(S/P\) 1 2 3 4 5 6 8 9 10 12 15 16 18 20 24 25 30 36
7 0 0 0 0 0 \(\frac{2}{36}\) 0 0 \(\frac{2}{36}\) \(\frac{2}{36}\) 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 \(\frac{2}{36}\) \(\frac{2}{36}\) \(\frac{1}{36}\) 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0 0 0 \(\frac{2}{36}\) \(\frac{2}{36}\) 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0 0 0 0 0 \(\frac{2}{36}\) \(\frac{1}{36}\) 0 0
11 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 \(\frac{2}{36}\) 0
12 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 \(\frac{1}{36}\)

Propiedades de la función de probabilidad conjunta

Sea \((X,Y)\) una variable aleatoria bidimensional discreta con conjunto de valores \((X,Y)(\Omega)=\{(x_i,y_j)\, i=1,2,\ldots,\ j=1,2,\ldots\}\). Entonces su función de probabilidad conjunta verifica las propiedades siguientes:

La suma de todos los valores de la función de probabilidad conjunta sobre el conjunto de valores siempre vale 1: \[\sum_{i}\sum_j P_{XY}(x_i,y_j)=1.\]

Propiedades de la función de probabilidad conjunta

Sea \(B\) una región del plano. El valor de la probabilidad \(P((X,Y)\in B)\) se puede calcular de la forma siguiente: \[ P((X,Y)\in B) =\sum_{(x_i,y_j)\in B} P_{XY}(x_i,y_j). \] O sea, la probabilidad de que la variable bidimensional coja valores en \(B\) es igual a la suma de todos aquellos valores de la función de probabilidad conjunta que están en \(B\).

Propiedades de la función de probabilidad conjunta

En particular, tenemos la relación siguiente que relaciona la función de distribución conjunta con la función de probabilidad conjunta: \[ F_{XY}(x,y)=\sum_{x_i\leq x, y_j\leq y} P_{XY}(x_i,y_j). \] Dicha expresión se deduce de la expresión anterior considerando \(B=(-\infty,x]\times (-\infty,y]\).

Propiedades de la función de probabilidad conjunta. Ejemplo

Ejemplo de la suma y el producto de los resultados del lanzamiento de dos dados

Ejercicio

Comprobad usando la tabla de la función de probabilidad conjunta que la suma de todos sus valores suma 1.

Apliquemos la fórmula que relaciona la función de distribución conjunta con la función de probabilidad conjunta para \((x,y)=(5,4)\).

Recordemos la tabla de la función de probabilidad conjunta hasta \(S=5\) y \(P=4\):

Propiedades de la función de probabilidad conjunta. Ejemplo

\(S/P\) 1 2 3 4
2 \(\frac{1}{36}\) 0 0 0 \(\ldots\)
3 0 \(\frac{2}{36}\) 0 0 \(\ldots\)
4 0 0 \(\frac{2}{36}\) \(\frac{1}{36}\) \(\ldots\)
5 0 0 0 \(\frac{2}{36}\) \(\ldots\)
\(\vdots\) \(\vdots\) \(\vdots\) \(\vdots\) \(\vdots\) \(\vdots\)

Propiedades de la función de probabilidad conjunta. Ejemplo

Observamos que los únicos valores \((x_i,y_j)\in (X,Y)(\Omega)\) que verifican \(x_i\leq 5\) y \(y_j\leq 4\) son \((2,1)\), \((3,2)\), \((4,3)\), \((4,4)\) y \((5,4)\). Por tanto, \[ \begin{array}{rl} F_{SP}(5,4) & = P_{SP}(2,1)+P_{SP}(3,2)+P_{SP}(4,3)+P_{SP}(4,4)+P_{SP}(5,4) \\ & = \frac{1}{36}+\frac{2}{36}+\frac{2}{36}+\frac{1}{36}+\frac{2}{36} = \frac{8}{36}=\frac{2}{9}. \end{array} \] O sea, “a la larga”, de cada 9 veces que lanzamos dos dados, 2 veces obtenemos un resultado cuya suma es menor o igual que 5 y cuyo producto es menor o igual que 4.

Variables aleatorias marginales

Consideremos una variable aleatoria bidimensional discreta \((X,Y)\) con función de probabilidad conjunta \(P_{XY}(x_i,y_j)\), con \((x_i,y_j)\in (X,Y)(\Omega)\), \(i=1,2,\ldots\), \(j=1,2,\ldots\).

La tabla de la función de probabilidad conjunta contiene suficiente información para obtener las funciones de probabilidad de las variables \(X\) e \(Y\).

Dichas variables \(X\) e \(Y\) se denominan distribuciones marginales y sus correspondientes funciones de probabilidad, funciones de probabilidad marginales \(P_X\) de la variable \(X\) y \(P_Y\) de la variable \(Y\).

Veamos cómo obtener \(P_X\) y \(P_Y\) a partir de la tabla \(P_{XY}\).

Variables aleatorias marginales

Proposición. Expresión de las funciones de probabilidad marginales. Sea \((X,Y)\) una variable aleatoria bidimensional discreta con función de probabilidad conjunta \(P_{XY}(x_i,y_j)\), con \((x_i,y_j)\in (X,Y)(\Omega)\), \(i=1,2,\ldots\), \(j=1,2,\ldots\).

Las funciones de probabilidad marginales \(P_X(x_i)\) y \(P_Y(y_j)\) se calculan usando las expresiones siguientes: \[ \begin{array}{rl} P_X(x_i) & = \sum_{j=1} P_{XY}(x_i,y_j),\ i=1,2,\ldots,\\ P_Y(y_j) & = \sum_{i=1} P_{XY}(x_i,y_j),\ \ j=1,2,\ldots \end{array} \]

Variables aleatorias marginales

O sea, si pensamos \(P_{XY}\) como una tabla bidimensional donde en la primera fila están los valores de la variable \(Y\) (\(y_1,y_2,\ldots\)) y en la primera columna están los valores de la variable \(X\) (\(x_1,x_2,\ldots\)), para obtener la función de probabilidad marginal de la variable \(X\) en el valor \(x_i\), \(P_X(x_i)\), hay que sumar todos los valores de \(P_{XY}(x_i,y_j)\) correspondientes a la fila \(i\)-ésima y para obtener la función de probabilidad marginal de la variable \(Y\) en el valor \(y_j\), \(P_Y(y_j)\), hay que sumar todos los valores de \(P_{XY}(x_i,y_j)\) correspondientes a la columna \(j\)-ésima.

Variables aleatorias marginales. Ejemplo

Ejemplo de la suma y el producto de los resultados del lanzamiento de dos dados

Hallemos la función de probabilidad marginal para la suma de los resultados \(S\) usando la expresión vista: \[ \begin{array}{rl} P_S(2) & = P_{SP}(2,1)=\frac{1}{36},\\ P_S(3) & = P_{SP}(3,2)=\frac{2}{36},\\ P_S(4) & = P_{SP}(4,3)+P_{SP}(4,4)=\frac{2}{36}+\frac{1}{36}=\frac{3}{36}=\frac{1}{12},\\ P_S(5) & = P_{SP}(5,4)+P_{SP}(5,6)=\frac{2}{36}+\frac{2}{36}=\frac{4}{36}=\frac{1}{9},\\ P_S(6) & = P_{SP}(6,5)+P_{SP}(6,8)+P_{SP}(6,9)=\frac{2}{36}+\frac{2}{36}+\frac{1}{36}=\frac{5}{36},\\ P_S(7) & = P_{SP}(7,6)+P_{SP}(7,10)+P_{SP}(7,12)=\frac{2}{36}+\frac{2}{36}+\frac{2}{36}=\frac{6}{36}=\frac{1}{6},\\ P_S(8) & = P_{SP}(8,12)+P_{SP}(8,15)+P_{SP}(8,16)=\frac{2}{36}+\frac{2}{36}+\frac{1}{36}=\frac{5}{36},\\ P_S(9) & = P_{SP}(9,18)+P_{SP}(9,20)=\frac{2}{36}+\frac{2}{36}=\frac{4}{36}=\frac{1}{9},\\ P_S(10) & = P_{SP}(10,24)+P_{SP}(10,25)=\frac{2}{36}+\frac{1}{36}=\frac{3}{36}=\frac{1}{12},\\ P_S(11) & = P_{SP}(11,30)=\frac{2}{36},\\ P_S(12) & = P_{SP}(12,36)=\frac{1}{36}. \end{array} \]

Variables aleatorias marginales. Ejemplo

La función de probabilidad marginal de la suma \(S\) queda resumida en la tabla siguiente:

\(S\) 2 3 4 5 6 7 8 9 10 11 12
\(P_S\) \(\frac{1}{36}\) \(\frac{2}{36}\) \(\frac{3}{36}\) \(\frac{4}{36}\) \(\frac{5}{36}\) \(\frac{6}{36}\) \(\frac{5}{36}\) \(\frac{4}{36}\) \(\frac{3}{36}\) \(\frac{2}{36}\) \(\frac{1}{36}\)

Ejercicio

Consideremos el ejemplo anterior de la suma y el producto de los resultados del lanzamiento de dos dados.

Calcular la función de probabilidad marginal del producto \(P\) de los resultados.

Variables aleatorias bidimensionales continuas

Introducción

Recordemos la definición de variable continua unidimensional: \(X\) es continua si existe una función \(f_X:\mathbb{R}\longrightarrow \mathbb{R}\), llamada función de densidad no negativa \(f_X(x)\geq 0\), para todo \(x\in\mathbb{R}\) tal que para cualquier intervalo \((a,b)\), la probabilidad de que \(X\) esté en \((a,b)\) se calcula de la forma siguiente: \[ P(X\in B)=P(a< X < b)=\int_B f_{X}(x)\,du=\int_a^b f_{X}(x)\,dx. \]

Introducción

La generalización natural será, entonces:

Definición de variable aleatoria bidimensional continua. Sea \((X,Y)\) una variable aleatoria bidimensional. Diremos que \((X,Y)\) es continua si existe una función \(f_{XY}:\mathbb{R}^2\longrightarrow \mathbb{R}\) llamada función de densidad no negativa \(f_{XY}(x,y)\geq 0\) para todo \((x,y)\in\mathbb{R}^2\) tal que dado cualquier región \(B\) del plano, la probabilidad de que \((X,Y)\) esté en \(B\) se calcula de la forma siguiente: \[ P((X,Y)\in B)=\int\int_B f_{XY}(x,y)\,dx\,dy. \]

Ejemplo

Ejemplo

Consideremos la función de densidad siguiente: \[ f_{XY}(x,y)=\begin{cases} 1, & \mbox{ si }0\leq x\leq 1,\ 0\leq y\leq 1, \\ 0, & \mbox{en caso contrario.} \end{cases} \] En este caso, si consideramos \(B=\left[-1,\frac{1}{2}\right]\times \left[-1,\frac{1}{2}\right]\), la probabilidad de que \((X,Y)\) esté en \(B\) se calcularía de la forma siguiente: \[ P((X,Y)\in B)=\int_{-1}^{\frac{1}{2}}\int_{-1}^{\frac{1}{2}} f_{XY}(x,y)\, dx\, dy =\int_0^{\frac{1}{2}}\int_0^{\frac{1}{2}} 1\, dx\,dy=\int_0^{\frac{1}{2}} 1\, dx\int_0^{\frac{1}{2}} 1\, dy=\frac{1}{2}\cdot\frac{1}{2}=\frac{1}{4}. \] En la figura siguiente hemos dibujado en morado la región donde \(f_{XY}\) no es cero, o sea \([0,1]\times [0,1]\), la región \(B\) en verde y la región intersección de las dos anteriores que es donde tenemos que integrar la función de densidad dada.

Ejemplo

Propiedades de la función de densidad

Sea \((X,Y)\) una variable aleatoria bidimensional continua con función de densidad \(f_{XY}\). Entonces dicha función verifica las propiedades siguientes:

  • La integral de dicha función sobre todo el plano vale 1: \[ \int\int_{\mathbb{R}^2} f_{XY}(x,y)\,dx\,dy =1. \] Para ver dicha propiedad, basta considerar \(B=\mathbb{R}^2\), tener en cuenta que el suceso \((X,Y)\in \mathbb{R}^2\) es el total \(\Omega\) y aplicar la definición de \(f_{XY}\): \[ P((X,Y)\in \mathbb{R}^2)=1= \int\int_{\mathbb{R}^2} f_{XY}(x,y)\,dx\,dy. \]

Propiedades de la función de densidad

  • La relación que hay entre la función de distribución \(F_{XY}\) y la función de densidad \(f_{XY}\) es la siguiente: \[ F_{XY}(x,y)=\int_{-\infty}^x\int_{-\infty}^y f_{XY}(u,v)\,du\,dv. \] Para ver dicha propiedad, basta considerar \(B=(-\infty,x]\times (-\infty,y]\) y aplicar la definición de función de distribución: \[ F_{XY}(x,y)=P((X,Y)\in (-\infty,x]\times (-\infty,y])=\int_{-\infty}^x\int_{-\infty}^y f_{XY}(u,v)\,du\,dv. \]

Propiedades de la función de densidad

  • La relación que hay entre la función de densidad \(f_{XY}\) y la función de distribución \(F_{XY}\) es la siguiente: \[ f_{XY}(x,y)=\frac{\partial^2 F_{XY}(x,y)}{\partial x\partial y}. \] Dicha propiedad se deduce de la anterior, derivando primero respecto a \(x\) y después respecto a \(y\) para eliminar las dos integrales.

  • Las funciones de densidad marginales de las variables \(X\) e \(Y\), \(f_X(x)\) y \(f_Y(y)\) respectivamente, se calculan de la forma siguiente: \[ f_X(x)=\int_{-\infty}^\infty f_{XY}(x,y)\, dy,\ f_Y(y)=\int_{-\infty}^\infty f_{XY}(x,y)\, dx \]

Ejemplo

Ejemplo anterior

Comprobemos las propiedades usando la función de densidad del ejemplo anterior: \(f_{XY}(x,y)=\begin{cases} 1, & \mbox{ si }0\leq x\leq 1,\ 0\leq y\leq 1, \\ 0, & \mbox{en caso contrario.} \end{cases}\)

  • La integral de \(f_{XY}\) sobre todo el plano vale 1: \[ \int\int_{\mathbb{R}^2} f_{XY}(x,y)\,dx\, dy=\int_0^1\int_0^1 1\, dx\, dv=\int_0^1 1\, dx\int_0^1 1\, dy=1\cdot 1=1. \]

  • Vamos a calcular la función de distribución \(F_{XY}\). Para ello dividimos el plano en 5 zonas tal como muestra la figura siguiente:

Ejemplo

Ejemplo

Sea \((x,y)\) un punto cualquiera de \(\mathbb{R}^2\). De cara a calcular \(F_{XY}(x,y)\) tenemos que averiguar el conjunto intersección siguiente: \(([0,1]\times [0,1])\cap ((-\infty,x]\times (-\infty,y])\) ya que el dominio donde \(f_{XY}\) es no nula es \([0,1]\times [0,1]\) y la función de distribución \(F_{XY}(x,y)\) valdrá: \[ F_{XY}(x,y)=\int_{-\infty}^x\int_{-\infty}^y f_{XY}(u,v)\,du\,dv =\int\int_{([0,1]\times [0,1])\cap ((-\infty,x]\times (-\infty,y])} f_{XY}(u,v)\,du\,dv. \]

  • Caso \((x,y)\in \mbox{Zona A}\) o \(x<0\) o \(y<0\) En este caso: \(([0,1]\times [0,1])\cap ((-\infty,x]\times (-\infty,y])=\emptyset.\) Ver figura siguiente donde la zona morada \(([0,1]\times [0,1]\)) no se interseca con la zona verde (\((-\infty,x]\times (-\infty,y]\)).

Por tanto en este caso, \(F_{XY}(x,y)=0\).

Ejemplo

Ejemplo

  • Caso \((x,y)\in \mbox{Zona B}\), o \((x,y)\in [0,1]\times [0,1]\). En este caso: \(([0,1]\times [0,1])\cap ((-\infty,x]\times (-\infty,y])=[0,x]\times [0,y].\) Ver figura siguiente.

Por tanto en este caso, \[ F_{XY}(x,y)=\int_0^x \int_0^y 1\,du\,dv =\int_0^x 1\, du\int_0^y 1\, dy =x\cdot y. \]

Ejemplo

Ejemplo

Dejamos como ejercicio los otros casos. En resumen: \[ F_{XY}(x,y)=\begin{cases} 0, & \mbox{ si }x<0, \mbox{ o }y<0,\\ x y, & \mbox{ si }(x,y)\in [0,1]\times [0,1],\\ x, & \mbox{ si }0\leq x\leq 1,\ y>1,\\ y, & \mbox{ si }x>1,\ 0\leq y\leq 1,\\ 1, & \mbox{ si } x>1,\ y>1. \end{cases} \] ¿Os suena?

Ver el primer ejemplo que pusimos del tema. Es la misma variable aleatoria bidimensional. Ahora sabemos que se trata de una variable aleatoria bidimensional continua.

Ejemplo

Comprobemos seguidamente que si derivamos dos veces la expresión de \(F_{XY}\), primero respecto \(x\) y después respecto \(y\), obtendremos la función de densidad \(f_{XY}\).

Si derivamos respecto \(x\) obtenemos: \[ \frac{\partial F_{XY}(x,y)}{\partial x}=\begin{cases} 0, & \mbox{ si }x<0, \mbox{ o }y<0,\\ y, & \mbox{ si }(x,y)\in [0,1]\times [0,1],\\ 1, & \mbox{ si }0\leq x\leq 1,\ y>1,\\ 0, & \mbox{ si }x>1,\ 0\leq y\leq 1,\\ 0, & \mbox{ si } x>1,\ y>1. \end{cases} \] Si ahora derivamos respecto \(y\) obtenemos: \[ \frac{\partial^2 F_{XY}(x,y)}{\partial y\partial x}=\begin{cases} 0, & \mbox{ si }x<0, \mbox{ o }y<0,\\ 1, & \mbox{ si }(x,y)\in [0,1]\times [0,1],\\ 0, & \mbox{ si }0\leq x\leq 1,\ y>1,\\ 0, & \mbox{ si }x>1,\ 0\leq y\leq 1,\\ 0, & \mbox{ si } x>1,\ y>1, \end{cases} \] expresión que coincide con la función de densidad \(f_{XY}(x,y)\).

Ejemplo

Hallemos para finalizar las funciones de densidad marginales. Empezemos con \(f_X(x)\): \[ f_X(x)=\int_{-\infty}^\infty f_{XY}(x,y)\, dy. \] Recordemos que la región donde no se anulaba la función de densidad conjunta \(f_{XY}\) era el cuadrado \([0,1]\times [0,1]\). Por tanto, fijado \(x\), el valor de \(f_X(x)\) será no nulo si la recta vectical \(X=x\) interseca dicho cuadrado. Y esto ocurre siempre que \(x\in (0,1)\). Por tanto, \[ f_X(x)=\begin{cases} \int_{0}^1 f_{XY}(x,y)\, dy=\int_{0}^1 1\, dy=1, & \mbox{ si }x\in (0,1),\\ 0, & \mbox{en caso contrario.} \end{cases} \] Por tanto la variable \(X\) sigue la distribución uniforme en el intervalo \([0,1]\).

Dejamos como ejercicio comprobar que la variable \(Y\) también sigue la distribución uniforme en el mismo intervalo.

Ejemplo 2

Ejemplo

Consideremos la variable aleatoria bidimensional \((X,Y)\) con función de densidad: \[ f_{XY}(x,y)=\begin{cases} c \mathrm{e}^{-x}\mathrm{e}^{-y}, & 0\leq y\leq x < \infty,\\ 0, & \mbox{ en caso contrario,} \end{cases} \] donde \(c\) es un valor que se tiene que hallar para que \(f_{XY}\) sea función de densidad.

Para hallar \(c\), hemos de imponer que la integral de la función anterior debe ser 1 sobre todo el plano \(\mathbb{R}^2\).

Primero fijémonos en como es la región de integración (zona morada de la figura). Fijado un valor \(x\geq 0\), el valor \(y\) va desde \(y=0\) hasta \(y=x\). Por tanto, para calcular el valor de \(c\), hay que hacer lo siguiente:

Ejemplo

Ejemplo 2

\[ \begin{array}{rl} 1 & =\int\int_{\mathbb{R}^2}f_{XY}(x,y)\, dx\, dy=\int_{x=0}^{x=\infty}\int_{y=0}^{y=x} c \mathrm{e}^{-x}\mathrm{e}^{-y} \, dy\, dx =c \int_{x=0}^{x=\infty}\mathrm{e}^{-x}\int_{y=0}^{y=x}\mathrm{e}^{-y}\, dy\, dx \\ & = c \int_{x=0}^{x=\infty}\mathrm{e}^{-x}\left[-\mathrm{e}^{-y}\right]_{y=0}^{y=x}\, dx = c \int_{x=0}^{x=\infty}\mathrm{e}^{-x}\left(1-\mathrm{e}^{-x}\right)\, dx =c \int_{x=0}^{x=\infty}\left(\mathrm{e}^{-x}-\mathrm{e}^{-2x}\right)\, dx \\ & = c \left[-\mathrm{e}^{-x}+\frac{1}{2}\mathrm{e}^{-2x}\right]_{x=0}^{x=\infty} = c\left(1-\frac{1}{2}\right)=\frac{c}{2}. \end{array} \] El valor de \(c\) será \(c=2\).

Vamos a calcular seguidamente su función de distribución.

Fijémonos que, en este caso, si \(x<0\) o \(y<0\), \(F_{XY}(x,y)=0\), ya que el dominio \(B=(-\infty,x]\times (-\infty,y]\) no interseca la zona morada del gráfico anterior.

Suponemos entonces que \(x\geq 0\) e \(y\geq 0\).

Vamos a considerar dos casos:

  • \(x\leq y\). Ver zona verde del gráfico siguiente.

  • \(x\geq y\). Ver zona morada del gráfico siguiente.

Ejemplo

Ejemplo 2

  • Caso \(x\leq y\) (zona verde de la figura adjunta). En este caso, si hacemos la intersección de la región \(B=(-\infty,x]\times (-\infty,y]\) (zona azul) con la zona morada o región donde \(f_{XY}(x,y)\neq 0\) obtenemos el triángulo \(T_{x,y}=\{(u,v)\in\mathbb{R}^2,\ 0\leq u\leq x,\ 0\leq v\leq u\}.\) Ver figura adjunta.

Por tanto, \[ \begin{array}{rl} F_{XY}(x,y) & =\int_{u=0}^{u=x}\int_{v=0}^{v=u} f_{XY}(u,v)\,dv\,du= 2 \int_{u=0}^{u=x} \mathrm{e}^{-u}\int_{v=0}^{v=u} \mathrm{e}^{-v}\,dv\,du = 2 \int_{u=0}^{u=x} \mathrm{e}^{-u}\left[-\mathrm{e}^{-v}\right]_{v=0}^{v=u}\, du \\ & = 2 \int_{u=0}^{u=x} \mathrm{e}^{-u} (1-\mathrm{e}^{-u})\, du =2 \int_{u=0}^{u=x} \left(\mathrm{e}^{-u}-\mathrm{e}^{-2u}\right)\, du=2 \left[-\mathrm{e}^{-u}+\frac{1}{2}\mathrm{e}^{-2u}\right]_{u=0}^{u=x} \\ & = 2\left(-\mathrm{e}^{-x}+\frac{1}{2}\mathrm{e}^{-2x}+1-\frac{1}{2}\right) =1-2\mathrm{e}^{-x}+\mathrm{e}^{-2x}. \end{array} \]

Ejemplo

Ejemplo 2

  • Caso \(x\geq y\) (zona morada de la figura adjunta). En este caso, si hacemos la intersección de la región \(B=(-\infty,x]\times (-\infty,y]\) (zona azul) con la zona morada o región donde \(f_{XY}(x,y)\neq 0\) obtenemos el trapecio \(T_{x,y}=\{(u,v)\in\mathbb{R}^2,\ 0\leq v\leq y,\ v\leq u\leq x\}.\) Ver figura adjunta.

Por tanto, \[ \begin{array}{rl} F_{XY}(x,y) & =\int_{v=0}^{v=y}\int_{u=v}^{u=x} f_{XY}(u,v)\,dv\,du= 2 \int_{v=0}^{v=y} \mathrm{e}^{-v}\int_{u=v}^{u=x} \mathrm{e}^{-u}\,du\,dv = 2 \int_{v=0}^{v=y} \mathrm{e}^{-v}\left[-\mathrm{e}^{-u}\right]_{u=v}^{u=x}\, dv \\ & = 2 \int_{v=0}^{v=y} \mathrm{e}^{-v} (\mathrm{e}^{-v}-\mathrm{e}^{-x})\, du =2 \int_{v=0}^{v=y} \left(\mathrm{e}^{-2v}-\mathrm{e}^{-v-x}\right)\, du=2 \left[-\frac{1}{2}\mathrm{e}^{-2v}+\mathrm{e}^{-v-x}\right]_{v=0}^{v=y} \\ & = 2\left(-\frac{1}{2}\mathrm{e}^{-2y}+\mathrm{e}^{-x-y}+\frac{1}{2}-\mathrm{e}^{-x}\right) =1-2\mathrm{e}^{-x}-\mathrm{e}^{-2y}+2\mathrm{e}^{-x-y}. \end{array} \]

Ejemplo

Ejemplo 2

En resumen: \[ F_{XY}(x,y)=\begin{cases} 1-2\mathrm{e}^{-x}+\mathrm{e}^{-2x}, & \mbox{si }x\geq 0,\ y\geq 0,\ x\leq y,\\ 1-2\mathrm{e}^{-x}-\mathrm{e}^{-2y}+2\mathrm{e}^{-x-y}, & \mbox{si }x\geq 0,\ y\geq 0,\ x\geq y,\\ 0, & \mbox{en caso contrario.} \end{cases} \]

Ejemplo 2

Comprobemos a continuación que si derivamos dos veces la expresión de \(F_{XY}\), primero respecto \(x\) y después respecto \(y\), obtendremos la función de densidad \(f_{XY}\).

Si derivamos respecto \(x\) obtenemos: \[ \frac{\partial F_{XY}(x,y)}{\partial x}=\begin{cases} 2\mathrm{e}^{-x}-2\mathrm{e}^{-2x}, & \mbox{si }x\geq 0,\ y\geq 0,\ x\leq y,\\ 2\mathrm{e}^{-x}-2\mathrm{e}^{-x-y}, & \mbox{si }x\geq 0,\ y\geq 0,\ x\geq y,\\ 0, & \mbox{en caso contrario.} \end{cases} \] Si ahora derivamos respecto \(y\) obtenemos: \[ \frac{\partial^2 F_{XY}(x,y)}{\partial y\partial x}=\begin{cases} 0, & \mbox{si }x\geq 0,\ y\geq 0,\ x\leq y,\\ 2\mathrm{e}^{-x-y}, & \mbox{si }x\geq 0,\ y\geq 0,\ x\geq y,\\ 0, & \mbox{en caso contrario.} \end{cases} \] expresión que coincide con la función de densidad \(f_{XY}(x,y)\).

Ejemplo 2

Hallemos las funciones de densidad marginales. Fijémonos que basta tener en cuenta los casos en que \(x\geq 0\) e \(y\geq 0\) ya que en caso contrario tanto \(f_X(x)\) como \(f_Y(y)\) serán nulas.

\[ \begin{array}{rl} f_X(x) & = \int_{-\infty}^{\infty} f_{XY}(x,y)\, dy =\int_{y=0}^{y=x}2\mathrm{e}^{-x-y}\, dy = 2\left[-\mathrm{e}^{-x-y}\right]_{y=0}^{y=x} = 2\left(\mathrm{e}^{-x}-\mathrm{e}^{-2x}\right),\mbox{ si }x\geq 0, \\ f_Y(y) & = \int_{-\infty}^{\infty} f_{XY}(x,y)\, dx =\int_{x=y}^{x=\infty}2\mathrm{e}^{-x-y}\, dx = 2\left[-\mathrm{e}^{-x-y}\right]_{x=y}^{x=\infty} = 2\mathrm{e}^{-2y}, \mbox{ si }y\geq 0. \end{array} \] Vemos que la variable \(Y\) corresponde a una distribución exponencial de parámetro \(\lambda =2\).

La distribución gausiana bidimensional

Vamos a generalizar la distribución normal a dos dimensiones.

Definición de distribución gausiana bidimensional. Diremos que la distribución de la variable aleatoria bidimensional \((X,Y)\) es gausiana bidimensional dependiendo del parámetro \(\rho\) si su función de densidad conjunta es: \[ f_{XY}(x,y)=\frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{(x^2-2\rho xy+y^2)}{2(1-\rho^2)}},\ -\infty <x,y<\infty. \]

La distribución gausiana bidimensional

Propiedades de la función de densidad de la variable gausiana bidimensional:

  • Para cualquier punto \((x,y)\in\mathbb{R}^2\), la función de densidad es no nula: \(f_{XY}(x,y)>0\).

  • La función de densidad tiene un único máximo absoluto en el punto \((0,0)\) que vale \(f_{XY}(0,0)=\frac{1}{2\pi\sqrt{1-\rho^2}}.\) Por tanto, para \(\rho=0\), dicho máximo alcanza el mínimo valor posible y si \(\rho\to \pm 1\), dicho máximo tiende a \(\infty\).

La distribución gausiana bidimensional

  • Las densidades marginales \(f_X(x)\) y \(f_Y(y)\) son normales \(N(0,1)\). Veámoslo con \(f_X(x)\). Por simetría, quedaría deducido para \(f_Y(y)\): \[ \begin{array}{rl} f_X(x) & =\frac{1}{2\pi\sqrt{1-\rho^2}}\int_{-\infty}^\infty \mathrm{e}^{-\frac{(x^2-2\rho xy+y^2)}{2(1-\rho^2)}}\, dy = \frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{x^2}{2(1-\rho^2)}}\int_{-\infty}^\infty \mathrm{e}^{-\frac{(-2\rho xy+y^2)}{2(1-\rho^2)}}\, dy \\ & = \frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{x^2}{2(1-\rho^2)}} \int_{-\infty}^\infty \mathrm{e}^{-\frac{(y-\rho x)^2}{2(1-\rho^2)}} \mathrm{e}^{\frac{\rho^2 x^2}{2(1-\rho^2)}}\, dy \\ & =\frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{x^2}{2}} \int_{-\infty}^\infty \mathrm{e}^{-\frac{(y-\rho x)^2}{2(1-\rho^2)}}\, dy, \mbox{ Hacemos cambio $z=\frac{y-\rho x}{\sqrt{1-\rho^2}}$}\\ & = \frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{x^2}{2}} \int_{-\infty}^\infty \mathrm{e}^{-\frac{z^2}{2}}\sqrt{1-\rho^2}\, dy =\frac{1}{\sqrt{2\pi}}\mathrm{e}^{-\frac{x^2}{2}}, \end{array} \]

La distribución gausiana bidimensional

función que coincide con la función de densidad de la variable \(N(0,1)\). En el último paso hemos usado que \[ \frac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty \mathrm{e}^{-\frac{z^2}{2}}\, dz=1, \] ya que correspondería al área de una función de densidad de una distribución \(N(0,1)\).

El gráfico siguiente muestra la función de densidad para \(\rho=\frac{1}{2}\).

La distribución gausiana bidimensional

Independencia de variables aleatorias

Independencia de variables aleatorias discretas

Recordemos que dos sucesos \(A\) y \(B\) son independientes si \(P(A\cap B)=P(A)\cdot P(B)\).

¿Cómo trasladar dicho concepto al caso de variables aleatorias?

En el caso de variables aleatorias discretas bidimensionales vimos que, dada una variable aleatoria bidimensional discreta \((X,Y)\) con \((X,Y)(\Omega)=\{(x_i,y_j),\ i=1,2,\ldots,j=1,2,\ldots\}\), los sucesos de la forma \(\{X=x_i,\ Y=y_j\}\) determinaban cómo se distribuían los valores de la variable \((X,Y)\). De ahí la definición siguiente:

Independencia de variables aleatorias discretas

Definición de independencia para variables aleatorias bidimensionales discretas. Sean \((X,Y)\) una variable aleatoria bidimensional discreta con \((X,Y)(\Omega)=\{(x_i,y_j),\ i=1,2,\ldots,j=1,2,\ldots\}\) y función de probabilidad \(P_{XY}\) y funciones de probabilidad marginales \(P_X\) y \(P_Y\). Entonces \(X\) e \(Y\) son independientes si: \[ P_{XY}(x_i,y_j)=P_X(x_i)\cdot P_Y(y_k),\ i=1,2,\ldots,j=1,2,\ldots \] o dicho de otra forma: \[ P(X=x_i,\ Y=y_k)=P(X=x_i)\cdot P(Y=y_k),\ i=1,2,\ldots,j=1,2,\ldots \]

Independencia de variables aleatorias discretas. Ejemplo

Ejemplo de la suma y el producto del lanzamiento de dos dados

Consideramos la variable aleatoria \((S,P)\) donde \(S\) representa la suma de los valores obtenidos al lanzar dos dados y \(P\), su producto.

En este caso \(S\) y \(P\) no son independientes ya que recordemos que por ejemplo \(P_{SP}(3,2)=\frac{2}{36}\), \(P_S(3)=\frac{2}{36}\) y \(P_P(2)=\frac{2}{36}\), ya que en este último caso, sólo hay dos posibles resultados en los que el producto dé 2: el \((1,2)\) y el \((2,1)\).

Entonces no se cumple que \(P_{SP}(3,2)=P_S(3)\cdot P_P(2)\), ya que \(\frac{2}{36}\neq \frac{2}{36}\cdot \frac{2}{36}\).

De ahí que no sean independientes ya que la condición anterior se debería cumplir para todos los valores \(x_i\) e \(y_k\) y hemos encontrado un contraejemplo en donde no se cumple.

Observación. Si la tabla de la función de probabilidad conjunta de \((X,Y)\) contiene algún \(0\), \(X\) e \(Y\) no pueden ser independientes. ¿Podéis decir por qué?

Independencia de variables aleatorias discretas. Ejemplo

Ejemplo

Veamos un caso de independencia.

Consideramos el experimento aleatorio de lanzar un dado dos veces. Sea \(X\) el resultado del primer lanzamiento e \(Y\), el resultado del segundo lanzamiento.

Veamos que, en este caso, \(X\) e \(Y\) son independientes.

El valor de \((X,Y)(\Omega)=\{(1,1),(1,2),\ldots,(6,6)\}\), en total 36 resultados.

La función de probabilidad conjunta en un valor cualquiera \((i,j)\) con \(i,j\in\{1,2,3,4,5,6\}\) será: \(P_{XY}(i,j)=\frac{1}{36}\) ya que la probabilidad que salga \(i\) en el primer lanzamiento es \(\frac{1}{6}\) y la probabilidad de que salga \(j\) en el segundo lanzamiento, también. Por tanto, la probabilidad de que salga \(i\) en el primer lanzamiento y \(j\) en el segundo será: \(\frac{1}{6}\cdot \frac{1}{6}=\frac{1}{36}.\)

Independencia de variables aleatorias discretas. Ejemplo

Ejemplo

Las funciones de densidad marginales de \(X\) e \(Y\) serán:
\(X\) o \(Y\) 1 2 3 4 5 6
\(P_X\) o \(P_Y\) \(\frac{1}{36}\) \(\frac{1}{36}\) \(\frac{1}{36}\) \(\frac{1}{36}\) \(\frac{1}{36}\) \(\frac{1}{36}\)

Por tanto, para todo \((i,j)\) con \(i,j\in\{1,2,3,4,5,6\}\) se cumplirá: \[ P_{XY}(i,j)=\frac{1}{36}=\frac{1}{6}\cdot \frac{1}{6}=P_X(i)\cdot P_Y(j). \] Deducimos que son independientes.

Independencia de variables aleatorias continuas

La definición dada para variables aleatorias discretas se traslada de forma natural a las variables aleatorias continuas:

Definición de independencia para variables aleatorias bidimensionales continuas. Sean \((X,Y)\) una variable aleatoria bidimensional continua con función de densidad conjunta \(f_{XY}\) y funciones de probabilidad marginales \(f_X\) y \(f_Y\). Entonces \(X\) e \(Y\) son independientes si: \[ f_{XY}(x,y)=f_X(x)\cdot f_Y(y),\ \mbox{para todo $x,y\in\mathbb{R}$.} \]

Independencia de variables aleatorias continuas. Ejemplo

Ejemplo

Recordemos el ejemplo siguiente visto donde teníamos una variable aleatoria bidimensional continua \((X,Y)\) con función de densidad conjunta: \[ f_{XY}(x,y)=\begin{cases} 1, & \mbox{ si }0\leq x\leq 1,\ 0\leq y\leq 1, \\ 0, & \mbox{en caso contrario.} \end{cases} \] y con densidad marginales: \[ f_{X}(x)=\begin{cases} 1, & \mbox{ si }0\leq x\leq 1,\\ 0, & \mbox{en caso contrario.} \end{cases}\quad f_{Y}(y)=\begin{cases} 1, & \mbox{ si }0\leq y\leq 1,\\ 0, & \mbox{en caso contrario.} \end{cases} \]

Independencia de variables aleatorias continuas. Ejemplo

Ejemplo

Veamos que son independientes.

Consideremos dos casos:

  • \((x,y)\in [0,1]\times [0,1]\). En este caso: \[ f_{XY}(x,y) =1 =1\cdot 1=f_X(x)\cdot f_Y(y). \]

  • \((x,y)\not\in [0,1]\times [0,1]\). En este caso: \[ f_{XY}(x,y) =0 = f_X(x)\cdot f_Y(y), \] ya que si \((x,y)\not\in [0,1]\times [0,1]\), o \(x\not\in [0,1]\) o \(y\not\in [0,1]\). Por tanto \(f_X(x)=0\) o \(f_Y(y)=0\). En cualquier caso, \(f_X(x)\cdot f_Y(y)=0\).

Independencia de variables aleatorias continuas. Ejemplo

Ejemplo

Recordemos el ejemplo siguiente visto donde teníamos una variable aleatoria bidimensional continua \((X,Y)\) con función de densidad conjunta: \[ f_{XY}(x,y)=\begin{cases} 2 \mathrm{e}^{-x}\mathrm{e}^{-y}, & 0\leq y\leq x < \infty,\\ 0, & \mbox{ en caso contrario,} \end{cases} \] y con densidad marginales: \[ f_X(x) = 2\left(\mathrm{e}^{-x}-\mathrm{e}^{-2x}\right),\mbox{ si }x\geq 0, \quad f_Y(y) = 2\mathrm{e}^{-2y}, \mbox{ si }y\geq 0. \] En este caso no son independientes ya que claramente \(f_{XY}(x,y)\neq f_X(x)\cdot f_Y(y)\).

Ejemplo de la variable gausiana bidimensional

En este caso, recordemos que la función de densidad conjunta de \((X,Y)\) es: \[ f_{XY}(x,y)=\frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{(x^2-2\rho xy+y^2)}{2(1-\rho^2)}},\ -\infty <x,y<\infty. \] Las funciones de densidad marginales de \(X\) e \(Y\) correspondían a \(N(0,1)\): \[ f_X(x)=\frac{1}{\sqrt{2\pi}}\mathrm{e}^{-\frac{x^2}{2}},\ -\infty <x<\infty,\quad f_Y(y)=\frac{1}{\sqrt{2\pi}}\mathrm{e}^{-\frac{y^2}{2}},\ -\infty <y<\infty. \]

Ejemplo de la variable gausiana bidimensional

¿Para qué valor(es) de \(\rho\) las variables normales estándard \(X\) e \(Y\) serían independientes?

o, ¿para qué valor(es) de \(\rho\) se cumple? \[ f_X(x)\cdot f_Y(y)=\frac{1}{2\pi}\mathrm{e}^{-\frac{x^2+y^2}{2}} = \frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{(x^2-2\rho xy+y^2)}{2(1-\rho^2)}}. \] La respuesta es claramente para \(\rho=0\).

Por tanto, \(\rho\) se puede interpretar como un parámetro de independencia, cuánto más cercano a cero esté, más cerca de la independencia estarán las variables \(X\) e \(Y\).

Relación de la independencia y la función de distribución

El siguiente resultado nos da la relación entre la independencia de variables aleatorias y su función de distribución conjunta:

Teorema. Sea \((X,Y)\) una variable aleatoria bidimensional. Entonces \(X\) e \(Y\) son independientes si, y sólo si, la función de distribución conjunta es el producto de las funciones de distribución marginales en todo valor \((x,y)\in\mathbb{R}^2\): \[ F_{XY}(x,y)=F_X(x)\cdot F_Y(y),\ (x,y)\in\mathbb{R}^2. \]

Ejemplo de variables aleatorias discretas independientes

Ejemplo

Consideramos el experimento aleatorio de lanzar un dado dos veces. Sea \(X\) el resultado del primer lanzamiento e \(Y\), el resultado del segundo lanzamiento.

Recordemos que, en este caso, \(X\) e \(Y\) son independientes.

En primer lugar notemos que si \(x<1\) o \(y<1\), \(F_{XY}(x,y)=0\) ya que el suceso \(\{X\leq x,\ Y\leq y\}\) es vacío.

De la misma forma como \(x<1\) o \(y<1\), o el suceso \(\{X\leq x\}\) o el suceso \(\{Y\leq y\}\) son vacíos. Por tanto, o \(F_X(x)=0\) o \(F_Y(y)=0\).

En cualquier caso, se cumple \(F_{XY}(x,y)=0=F_X(x)\cdot F_Y(y)\).

Podemos suponer, por tanto, que \(x\geq 1\) e \(y\geq 1\).

Ejemplo de variables aleatorias discretas independientes

Sea \((x,y)\in \mathbb{R}^2\) con \(x\geq 1\) e \(y\geq 1\). Podemos suponer tal que existen dos valores \(i\) y \(j\) en \(\{1,2,\ldots\}\) con \(i\leq x < i+1\) y \(j\leq y <j+1\).

El valor de la función de distribución conjunta en \((x,y)\) será: \[ F_{XY}(x,y)=\begin{cases} \frac{i\cdot j}{36}, & \mbox{si }i\leq 6, \ j\leq 6, \\ \frac{6 i}{36}, & \mbox{si }i\leq 6,\ j\geq 6,\\ \frac{6 j}{36}, & \mbox{si }i\geq 6,\ j\leq 6,\\ 1, & \mbox{ si }i\geq 6,\ j\geq 6, \end{cases} \]

Ejemplo de variables aleatorias discretas independientes

ya que: \[ \begin{array}{rl} F_{XY}(x,y) & =P(X\leq i,\ Y\leq j)=P(\{(k,l)\in \{1,2,3,4,5,6\}^2,\ |\ k\leq i,\ l\leq j\})\\ & =P(\{(1,1),\ldots,(1,j),\ldots,(i,1),\ldots,(i,j)\})=\begin{cases} \frac{i\cdot j}{36}, & \mbox{si }i\leq 6, \ j\leq 6, \\ \frac{6 i}{36}, & \mbox{si }i\leq 6,\ j\geq 6,\\ \frac{6 j}{36}, & \mbox{si }i\geq 6,\ j\leq 6,\\ 1, & \mbox{ si }i\geq 6,\ j\geq 6, \end{cases}, \end{array} \] ya que claramente el cardinal del conjunto \(\{(1,1),\ldots,(1,j),\ldots,(i,1),\ldots,(i,j)\}\) es \(\begin{cases} i\cdot j, & \mbox{si }i\leq 6, \ j\leq 6, \\ 6 i, & \mbox{si }i\leq 6,\ j\geq 6,\\ 6 j, & \mbox{si }i\geq 6,\ j\leq 6,\\ 36, & \mbox{ si }i\geq 6,\ j\geq 6. \end{cases}\).

Ejemplo de variables aleatorias discretas independientes

Hallemos ahora la función de distribución de \(X\) e \(Y\) que consiste en el resultado del lanzamiento de un dado.

Dado \(x\in\mathbb{R}\) con \(x\geq 1\), existe un \(i\) con \(i\in\{1,2,\ldots,\}\) con \(i\leq x <i+1\). En este caso, el valor de \(F_X(x)\) es: \[ F_X(x)=\begin{cases} \frac{i}{6}, &\mbox{si }i\leq 6,\\ 1, & \mbox{si }i\geq 6, \end{cases} \] ya que: \[ F_X(x)=F_X(i)=P(X\leq i)=P(\{k\in\{1,2,3,4,5,6\},\ |\ k\leq i\})=\begin{cases} \frac{i}{6}, &\mbox{si }i\leq 6,\\ 1, & \mbox{si }i\geq 6, \end{cases}, \] ya que el cardinal del conjunto \(\{k\in\{1,2,3,4,5,6\},\ |\ k\leq i\}\) es \(\begin{cases} i, &\mbox{si }i\leq 6,\\ 6, & \mbox{si }i\geq 6. \end{cases}\)

Ejemplo de variables aleatorias discretas independientes

La función de distribución de \(Y\) es de la misma forma.

Por último, comprobemos que se verifica que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\), si \(x\geq 1\) e \(y\geq 1\).

Sea \((x,y)\in\mathbb{R}^2\) y sean los enteros \(i\) y \(j\) tales que \(i\leq x<i+1\) y \(j\leq y<j+1\). Consideremos 4 casos:

  • \(i\leq 6, \ j\leq 6\). En este caso: \[ F_{XY}(x,y)=\frac{i\cdot j}{36}=\frac{i}{6}\cdot \frac{j}{6}=F_X(x)\cdot F_Y(y). \]

  • \(i\leq 6,\ j\geq 6\). En este caso: \[ F_{XY}(x,y)=\frac{6i}{36}=\frac{i}{6}\cdot 1=F_X(x)\cdot F_Y(y). \]

Ejemplo de variables aleatorias discretas independientes

  • \(i\geq 6,\ j\leq 6\). En este caso: \[ F_{XY}(x,y)=\frac{6j}{36}=1\cdot \frac{j}{6}=F_X(x)\cdot F_Y(y). \]

  • \(i\geq 6,\ j\geq 6\). En este caso: \[ F_{XY}(x,y)=1=1\cdot 1=F_X(x)\cdot F_Y(y). \]

En resumen, para todo \((x,y)\in \mathbb{R}^2\) se verifica que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\), tal como queríamos ver.

Ejemplo de variables aleatorias continuas independientes

Ejemplo

Recordemos la variable aleatoria bidimensional continua con función de densidad conjunta: \[ f_{XY}(x,y)=\begin{cases} 1, & \mbox{ si }0\leq x\leq 1,\ 0\leq y\leq 1, \\ 0, & \mbox{en caso contrario.} \end{cases} \] Su función de distribución conjunta es: \[ F_{XY}(x,y)=\begin{cases} 0, & \mbox{si }x<0,\mbox{ o }y<0,\\ xy, & \mbox{si }0\leq x\leq 1,\ 0\leq y\leq 1, \\ x, & \mbox{si }0\leq x\leq 1,\ y> 1, \\ y, & \mbox{si }0\leq y\leq 1,\ x> 1, \\ 1, & x\geq 1,\ y\geq 1. \end{cases} \]

Ejemplo de variables aleatorias continuas independientes

Recordemos también que las distribuciones marginales de \(X\) e \(Y\) eran uniformes en el intervalo \([0,1]\). Por tanto, las funciones de distribución marginales serán: \[ F_X(x)=\begin{cases} 0, & \mbox{si }x\leq 0, \\ x, & \mbox{si }0\leq x\leq 1, \\ 1, & \mbox{si }x\geq 1. \\ \end{cases},\quad F_Y(y)=\begin{cases} 0, & \mbox{si }y\leq 0, \\ y, & \mbox{si }0\leq y\leq 1, \\ 1, & \mbox{si }y\geq 1. \\ \end{cases} \] Recordemos que \(X\) e \(Y\) son independientes. Verifiquemos que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\).

Distinguiremos cinco casos:

  • \(x<0\) o \(y<0\). En este caso, \(F_{XY}(x,y)=0\) y, o \(F_X(x)=0\), si \(x<0\), o \(F_Y(y)=0\), si \(y<0\). En cualquier caso, se cumple que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\).

  • \(0\leq x\leq 1,\ 0\leq y\leq 1\). En este caso, \(F_{XY}(x,y)=xy\), \(F_X(x)=x\) y \(F_Y(y)=y\). Claramente, se cumple que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\).

Ejemplo de variables aleatorias continuas independientes

  • \(0\leq x\leq 1,\ y> 1\). En este caso, \(F_{XY}(x,y)=x\), \(F_X(x)=x\) y \(F_Y(y)=1\). Claramente, se cumple que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\).

  • \(x >1,\ 0\leq y\leq 1\). En este caso, \(F_{XY}(x,y)=y\), \(F_X(x)=1\) y \(F_Y(y)=y\). Claramente, se cumple que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\).

  • \(x\geq 1,\ y\geq 1\). En este caso, \(F_{XY}(x,y)=1\), \(F_X(x)=1\) y \(F_Y(y)=1\). Claramente, se cumple que \(F_{XY}(x,y)=F_X(x)\cdot F_Y(y)\).

Momentos conjuntos y valores esperandos conjuntos

Introducción

El valor esperado de una variable aelatoria \(X\) se identifica con el centro de masa de la distribución de \(X\).

La varianza proporciona una medida de la extensión de la distribución.

En el caso de dos variables aleatorias, estamos interesados en cómo \(X\) e \(Y\) varían juntas.

En particular, nos interesa saber si la variación de \(X\) e \(Y\) está correlacionada. Por ejemplo, si \(X\) aumenta, ¿Y tiende a aumentar o disminuir?

Los momentos conjuntos de \(X\) e \(Y\), que se definen como valores esperados de las funciones de \(X\) e \(Y\), proporcionan esta información.

Valor esperado de una función de dos variables aleatorias

Sea \((X,Y)\) una variable aleatoria bidimensional.

Sea \(P_{XY}\) su función de probabilidad conjunta en el caso en que \((X,Y)\) sea discreta y \(f_{XY}\) su función de densidad conjunta en el caso en que \((X,Y)\) sea continua.

Sea \(Z=g(X,Y)\) una variable aleatoria unidimensional función de las variables \(X\) e \(Y\). Por ejemplo:

  • Suma de las dos variables \(g(x,y)=x+y\): \(Z=X+Y\).
  • Producto de las dos variables \(g(x,y)=x\cdot y\): \(Z=X\cdot Y\).
  • Suma de los cuadrados de las variables \(g(x,y)=x^2+y^2\): \(Z=X^2+Y^2\).

Valor esperado de una función de dos variables aleatorias

Hay que tener en cuenta que \(Z\), como variable aleatoria unidimensional tiene una función de probabilidad \(P_Z\) en el caso en que \((X,Y)\) sea discreta y una función de densidad \(f_Z\) en el caso en que \((X,Y)\) sea continua.

El siguiente resultado nos dice cómo calcular el valor esperado de \(Z\) sin tener que calcular \(P_Z\) o \(f_Z\), sólo usando la información de la variable aleatoria conjunta \((X,Y)\):

Valor esperado de una función de dos variables aleatorias

Proposición. El valor esperado de \(Z\) se puede hallar usando la expresión siguiente:

  • en el caso en que \((X,Y)\) sea discreta con \((X,Y)(\Omega)=\{(x_i,y_j),\ i=1,2,\ldots, j=1,2,\ldots\}\), \[ E(Z) = E(g(X,Y)) =\sum_{x_i}\sum_{y_j}g(x_i,y_j)P(x_i,y_j), \]

  • en el caso en que \((X,Y)\) sea continua: \[ E(Z)=E(g(X,Y))=\int_{-\infty}^\infty g(x,y)f_{XY}(x,y)\, dx\, dy. \]

Ejemplo

Ejemplo

Consideremos el ejemplo de la variable \((S,P)\) que nos daba la suma y el producto de los resultados cuando lanzábamos dos dados.

Vamos a calcular \(E(X+Y)\).

Recordemos que ya hemos calculado \(P_{XY}\). La expresión de \(E(X+Y)\) será: \[ \begin{array}{rll} E(X+Y) & = &(2+1)\cdot P_{XY}(1,2)+(3+2)\cdot P_{XY}(3,2)+(4+3)\cdot P_{XY}(4,3)+(4+4)\cdot P_{XY}(4,4)\\ & & + (5+4)\cdot P_{XY}(5,4)+(5+6)\cdot P_{XY}(5,6)+(6+5)\cdot P_{XY}(6,5)+(6+8)\cdot P_{XY}(6,8)\\ & & + (6+9)\cdot P_{XY}(6,9)+(7+6)\cdot P_{XY}(7,6)+(7+10)\cdot P_{XY}(7,10)+(7+12)\cdot P_{XY}(7,12)\\ & & + (8+12)\cdot P_{XY}(8,12)+(8+15)\cdot P_{XY}(8,15)+(8+16)\cdot P_{XY}(8,16)\\ & & +(9+18)\cdot P_{XY}(9,18) + (9+20)\cdot P_{XY}(9,20)+(10+24)\cdot P_{XY}(10,24)\\ & & +(10+25)\cdot P_{XY}(10,25)+(11+30)\cdot P_{XY}(11,30) + (12+36)\cdot P_{XY}(12,36) \\ & = & 3\cdot \frac{1}{36}+5\cdot\frac{2}{36}+7\cdot \frac{2}{36}+8\cdot \frac{1}{36}+9\cdot \frac{2}{36}+11\cdot\frac{2}{36}+11\cdot \frac{2}{36}+14\cdot\frac{2}{36}+15\cdot\frac{1}{36}\\ & & + 13\cdot\frac{2}{36}+17\cdot\frac{2}{36}+19\cdot\frac{2}{36}+20\cdot\frac{2}{36}+23\cdot\frac{2}{36}+24\cdot\frac{1}{36}+27\cdot\frac{2}{36}+29\cdot\frac{2}{36} \\ & & + 34\cdot\frac{2}{36}+35\cdot\frac{1}{36}+41\cdot\frac{2}{36}+48\cdot\frac{1}{36}=\frac{693}{36}= 19.25. \end{array} \]

Ejemplo

Ejemplo

Recordemos el ejemplo donde \((X,Y)\) era una variable aleatoria bidimensional continua con función de densidad conjunta: \[ f_{XY}(x,y)=\begin{cases} 2 \mathrm{e}^{-x}\mathrm{e}^{-y}, & 0\leq y\leq x < \infty,\\ 0, & \mbox{ en caso contrario.} \end{cases} \] Calculemos \(E(X\cdot Y)\): \[ \begin{array}{rl} E(X\cdot Y) & =\int_{x=0}^{x=\infty} \int_{y=0}^{y=x} 2 x y \mathrm{e}^{-x}\mathrm{e}^{-y}\, dy\, dx=2\int_{x=0}^{x=\infty} x \mathrm{e}^{-x} \int_{y=0}^{y=x} y \mathrm{e}^{-y}\, dy\, dx = 2\int_{x=0}^{x=\infty}x \mathrm{e}^{-x} \left[-\mathrm{e}^{-y} (y+1)\right]_{y=0}^{y=x}\, dx\\ & = 2\int_{x=0}^{x=\infty}x \mathrm{e}^{-x} \left(1-\mathrm{e}^{-x}(x+1)\right)\, dx = 2\int_{x=0}^{x=\infty}x\left( \mathrm{e}^{-x}-\mathrm{e}^{-2x}\right)-x^2\mathrm{e}^{-2x}\, dx \\ & = 2\left[-\mathrm{e}^{-x}(x+1)+\frac{1}{4}\mathrm{e}^{-2 x}(1+2x)+\frac{1}{4} \mathrm{e}^{-2 x} \left(2 x^2+2 x+1\right)\right]_{x=0}^{x=\infty} = 2\cdot \left(1-\frac{1}{4}-\frac{1}{4}\right)=1. \end{array} \] En el último cálculo hemos usado integración por partes para integrar \(\int x\mathrm{e}^{-x}\,dx\), \(\int x\mathrm{e}^{-2x}\,dx\) y \(\int x^2\mathrm{e}^{-2x}\, dx\).

Ejercicio

Hallar \(E(X+Y)\) para el ejemplo anterior.

Valor esperado de una función de dos variables aleatorias independientes

El siguiente resultado nos simplifica el cálculo del valor esperado de una función de dos variables aleatorias en el caso en que sean independientes:

Proposición: cálculo del valor esperado de una función de dos variables aleatorias en el caso de independencia. Sea \((X,Y)\) una variable aleatoria bidimensional donde suponemos que \(X\) e \(Y\) son independientes. Sea \(Z=g(X,Y)\) una variable aleatoria unidimensional función de \(X\) e \(Y\) donde suponemos que podemos “separar” las variables \(x\) e \(y\) en la función \(g\). O sea, existen dos funciones \(g_x\) y \(g_y\) tal que \(g(x,y)=g_x(x)\cdot g_y(y)\) para todo valor \(x,y\in\mathbb{R}\). En este caso, el valor esperado de \(Z\) se puede calcular como: \[ E(Z)=E(g(X,Y))=E_X(g_x(X))\cdot E_Y(g_y(Y)). \]

Valor esperado de una función de dos variables aleatorias independientes

O sea, el cálculo de \(E(g(X,Y))\) que sería una suma doble en el caso de que \((X,Y)\) sea discreta o una integral doble en el caso en que \((X,Y)\) sea continua se transforma en el producto de dos sumas simples (caso discreto) o el producto de dos integrales simples (caso continuo): \[ \begin{array}{rl} E(Z) & =E(g(X,Y))=\left(\sum_{x_i} g_x(x_i)\cdot P_X(x_i)\right)\cdot \left(\sum_{y_j} g_y(y_j)\cdot P_Y(y_j)\right),\\ &\ \quad \mbox{caso discreto},\\ E(Z) & =E(g(X,Y))=\left(\int_{-\infty}^\infty g_x(x)\cdot f_X(x)\, dx\right)\cdot \left(\int_{-\infty}^\infty g_y(y)\cdot f_Y(y)\right), \\ &\ \quad \mbox{caso continuo}. \end{array} \]

Valor esperado de una función de dos variables aleatorias independientes

Un caso particular de aplicación de la proposición anterior sería cuando querramos calcular \(E(X\cdot Y)\). En este caso \(g(x,y)=x\cdot y\), \(g_x(x)=x\), y \(g_y(y)=y\).

Podemos escribir, por tanto: \[ E(X\cdot Y)=E_X(X)\cdot E_Y(Y), \] si \(X\) e \(Y\) son independientes.

Ejemplo

Ejemplo

Recordemos el experimento aleatorio que consiste en lanzar un dado dos veces. Sea \(X\) el resultado del primer lanzamiento e \(Y\), el resultado del segundo lanzamiento.

Hemos visto que \(X\) e \(Y\) son independientes.

Las marginales de \(X\) e \(Y\) recordemos que son las siguientes:
\(X\) o \(Y\) 1 2 3 4 5 6
\(P_X(i)\) o \(P_Y(i)\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\)

Calculemos \(E(X\cdot Y)\) usando la proposición anterior: \[ E(X\cdot Y)=E_X(X)\cdot E_Y(Y)=\left(\sum_{i=1}^6 i\cdot \frac{1}{6}\right)\cdot \left(\sum_{i=1}^6 i\cdot \frac{1}{6}\right)=\left(\frac{21}{6}\right)^2 = 12.25. \] Dejamos como ejercicio el cálculo de \(E(X\cdot Y)\) usando la función de probabilidad conjunta \(P_{XY}\) y comprobar que da el mismo resultado.

Ejemplo

Ejemplo

Recordemos la variable aleatoria bidimensional continua con función de densidad conjunta: \[ f_{XY}(x,y)=\begin{cases} 1, & \mbox{ si }0\leq x\leq 1,\ 0\leq y\leq 1, \\ 0, & \mbox{en caso contrario.} \end{cases} \] donde vimos que \(X\) e \(Y\) eran independientes y de distribución uniforme en el intervalo \([0,1]\).

Calculemos \(E(X\cdot Y)\) usando la proposición: \[ E(X\cdot Y)=E_X(X)\cdot E_Y(Y)=\int_0^1 1\, dx\cdot \int_0^1 1\, dy =1\cdot 1=1. \] Dejamos como ejercicio el cálculo de \(E(X\cdot Y)\) usando la función de densidad conjunta \(f_{XY}\) y comprobar que da el mismo resultado.

Momentos conjuntos

A continuación vamos a definir el momento de orden \((i,j)\) para una variable aleatoria bidimensional \((X,Y)\) para intentar obtener información de su comportamiento conjunto:

Definición de momento conjunto. Sean \((X,Y)\) una variable aleatoira bidimensional con función de probabilidad conjunta \(P_{XY}\) en el caso discreto y función de densidad conjunta \(f_{XY}\) en el caso continuo. Dados \(k\) y \(l\) números enteros positivos, definimos el momento conjunto de orden \((k,l)\) para la variable \((X,Y)\) como: \[ E\left(X^k Y^l\right)=\begin{cases} \sum_{x_i}\sum_{y_j} x_i^k y_j^l P_{XY}(x_i,y_j), & \mbox{ caso discreto,} \\ \int_{-\infty}^\infty\int_{-\infty}^\infty x^k y^l f_{XY}(x,y)\, dx\, dy. & \mbox{ caso continuo.} \end{cases} \]

Momentos conjuntos

Observación. Si consideramos \(l=0\), los momentos conjuntos de orden \((k,0)\) coinciden con los momentos de orden \(k\) de la variable aleatoria \(X\).

De la misma forma, considerando \(k=0\), los momentos conjuntos de orden \((0,l)\) coinciden con los momentos de orden \(l\) de la variable aleatoria \(Y\).

Para \(l=1\) y \(k=1\) obtenemos el momento de orden \((1,1)\) ya visto anteriormente: \(E(X\cdot Y)\), denominado correlación entre las variables \(X\) e \(Y\). Si dicha correlación es nula, \(E(X\cdot Y)=0\), se dice que las variables \(X\) e \(Y\) son ortogonales.

Momentos conjuntos centrados en las medias

A continuación definamos los momentos conjuntos centrados en las medias:

Definición de momento conjunto. Sean \((X,Y)\) una variable aleatoira bidimensional con función de probabilidad conjunta \(P_{XY}\) en el caso discreto y función de densidad conjunta \(f_{XY}\) en el caso continuo. Sean \(\mu_X=E(X)\) y \(\mu_Y=E(Y)\) los valores esperados de las variables \(X\) e \(Y\), respectivamente. Dados \(k\) y \(l\) números enteros positivos, definimos el momento conjunto de orden \((k,l)\) centrado en las medias para la variable \((X,Y)\) como: \[ E\left((X-\mu_X)^k (Y-\mu_Y)^l\right)=\begin{cases} \sum_{x_i}\sum_{y_j} (x_i-\mu_X)^k (y_j-\mu_Y)^l P_{XY}(x_i,y_j), & \\\ \qquad \mbox{ caso discreto,}& \\ \int_{-\infty}^\infty\int_{-\infty}^\infty (x-\mu_X)^k (y-\mu_Y)^l f_{XY}(x,y)\, dx\, dy. & \\ \ \qquad\mbox{ caso continuo.} & \end{cases} \]

Covariancia entre las variables

El momento conjunto centrado en las medias para \(k=1\) y \(l=1\) se denomina covariancia entre las variables \(X\) e \(Y\): \[ \mathrm{Cov}(X,Y)=E((X-\mu_X)(Y-\mu_Y)). \] La covariancia puede calcularse a partir de la correlación entre las variables: \[ \mathrm{Cov}(X,Y)=E((X-\mu_X)(Y-\mu_Y))=E(X\cdot Y)-\mu_X\cdot \mu_Y, \]

Covariancia entre las variables

ya que, usando las propiedades de la esperanza, tenemos: \[ \begin{array}{rl} E((X-\mu_X)(Y-\mu_Y)) & =E(X\cdot Y-\mu_Y X-\mu_X Y+\mu_X\cdot \mu_Y)\\ & =E(X\cdot Y)-\mu_YE(X)-\mu_X E(Y)+\mu_X\cdot \mu_Y \\ & = E(X\cdot Y)-\mu_Y\cdot \mu_X-\mu_X \cdot \mu_Y+\mu_X\cdot \mu_Y \\ & = E(X\cdot Y)-\mu_X\cdot \mu_Y. \end{array} \]

Covarianza entre las variables

Observación. Si las variables \(X\) e \(Y\) son independientes, su covarianza es nula ya que vimos que \(E(X\cdot Y)=\mu_X\cdot \mu_y\).

La covarianza es una medida de lo relacionadas están las variables \(X\) e \(Y\):

  • Si cuando \(X\geq \mu_X\), también ocurre que \(Y\geq \mu_Y\) o viceversa, cuando \(X\leq \mu_X\), también ocurre que \(Y\leq \mu_Y\), el valor \((X-\mu_X)(Y-\mu_Y)\) será positivo y la covarianza será positiva.

  • Si por el contrario, cuando \(X\geq \mu_X\), también ocurre que \(Y\leq \mu_Y\) o viceversa, cuando \(X\leq \mu_X\), también ocurre que \(Y\geq \mu_Y\), el valor \((X-\mu_X)(Y-\mu_Y)\) será negativo y la covarianza será negativa.

  • En cambio, si a veces ocurre una cosa y a veces ocurre otra, la covarianza va cambiando de signo y puede tener un valor cercano a 0.

Coeficiente de correlación entre las variables

La covarianza depende de las unidades en las que están las variables \(X\) e \(Y\) ya que si \(a>0\) y \(b>0\), entonces: \[ \mathrm{Cov}(aX,bY)=a\cdot b\cdot \mathrm{Cov}(X,Y). \] Por tanto, si queremos “medir” la relación que existe entre las variables \(X\) tendremos que “normalizar” la covarianza definiendo el coeficiente de correlación entre las variables \(X\) e \(Y\):

Coeficiente de correlación entre las variables

Definición del coeficiente de correlación. Sea \((X,Y)\) una variable aleatoria bidimensional. Se define el coeficiente de correlación entre las variables \(X\) e \(Y\) como: \[ \rho_{XY}=\frac{\mathrm{Cov}(X,Y)}{\sqrt{\mathrm{Var}(X)}\cdot\sqrt{\mathrm{Var}(Y)}}=\frac{E(X\cdot Y)-\mu_X\cdot \mu_Y}{\sqrt{E\left(X^2\right)-\mu_X^2}\cdot \sqrt{E\left(Y^2\right)-\mu_Y^2}}. \]

Observación. Si las variables \(X\) e \(Y\) son independientes, su coeficiente de correlación \(\rho_{XY}=0\) es nulo ya que su covarianza lo es.

Coeficiente de correlación entre las variables

El coeficiente de correlación es un valor normalizado ya que siempre está entre -1 y 1: \(-1\leq\rho_{XY}\leq 1\).

Para ver la demostración de este hecho, sean \(\mu_X=E(X)\), \(\mu_Y=E(Y)\), \(\sigma_X=\sqrt{\mathrm{Var}(X)}\) y \(\sigma_Y=\sqrt{\mathrm{Var}(Y)}\).

Consideremos la variable \(Z=\left(\frac{X-\mu_X}{\sigma_X}\pm \frac{Y-\mu_Y}{\sigma_Y}\right)^2\). Como \(Z\geq 0\), tenemos que \(E(Z)\geq 0\). Desarrollemos el valor de \(E(Z)\):

Coeficiente de correlación entre las variables

\[ \begin{array}{rl} E(Z) & = E\left(\frac{X-\mu_X}{\sigma_X}\pm \frac{Y-\mu_Y}{\sigma_Y}\right)^2 = E\left(\left(\frac{X-\mu_X}{\sigma_X}\right)^2+\left(\frac{Y-\mu_Y}{\sigma_Y}\right)^2\pm 2\left(\frac{X-\mu_X}{\sigma_X}\right) \left(\frac{Y-\mu_Y}{\sigma_Y}\right)\right) \\ & = E\left(\left(\frac{X-\mu_X}{\sigma_X}\right)^2\right)+E\left(\left(\frac{Y-\mu_Y}{\sigma_Y}\right)^2\right)\pm 2 E\left(\left(\frac{X-\mu_X}{\sigma_X}\right) \left(\frac{Y-\mu_Y}{\sigma_Y}\right)\right) \\ & = \frac{1}{\sigma_X^2}E\left(\left(X-\mu_X\right)^2\right)+\frac{1}{\sigma_Y^2}E\left(\left(Y-\mu_Y\right)^2\right)\pm \frac{2}{\sigma_X\sigma_Y}E\left(\left(X-\mu_X\right) \left(Y-\mu_Y\right)\right) \\ & = \frac{1}{\sigma_X^2}\sigma_X^2+ \frac{1}{\sigma_Y^2}\sigma_Y^2 \pm\frac{2}{\sigma_X\sigma_Y} \mathrm{Cov}(X,Y) = 1+1\pm 2\frac{\mathrm{Cov}(X,Y)}{\sigma_X\sigma_Y}=2(1\pm\rho_{XY}) \end{array} \] Ahora, como \(E(Z)\geq 0\), tenemos que \(1\pm \rho_{XY}\geq 0\), lo que significa que, por un lado \(1+\rho_{XY}\geq 0\) y, por otro, \(1-\rho_{XY}\geq 0\). De la primera inecuación, deducimos que \(\rho_{XY}\geq -1\) y de la segunda, \(\rho_{XY}\leq 1\).

En resumen, \(-1\leq\rho_{XY}\leq 1\), tal como queríamos ver.

Ejemplo

Ejemplo

Hallemos el coeficiente de correlación para el ejemplo de la variable aleatoria bidimensional continua con función de densidad conjunta: \[ f_{XY}(x,y)=\begin{cases} 2 \mathrm{e}^{-x}\mathrm{e}^{-y}, & 0\leq y\leq x < \infty,\\ 0, & \mbox{ en caso contrario,} \end{cases} \] Recordemos los cálculos realizados anteriormente:

  • \(E(X\cdot Y)=1.\)

  • \(f_X(x)=2\left(\mathrm{e}^{-x}-\mathrm{e}^{-2x}\right)\), si \(x\geq 0\). Su esperanza será: \[ E(X)=\int_0^\infty x 2\left(\mathrm{e}^{-x}-\mathrm{e}^{-2x}\right)\, dx=2 \left[\frac{1}{4} \mathrm{e}^{-2 x} (2 x+1)-\mathrm{e}^{-x}(x+1)\right]_0^\infty = 2\left(1-\frac{1}{4}\right)=\frac{3}{2}. \]

Ejemplo

Calculemos a continuación su varianza: \(\mathrm{Var}(X)=E\left(X^2\right)-\mu_X^2\). El valor de \(E\left(X^2\right)\) será: \[ E\left(X^2\right)=\int_0^\infty x^2 2\left(\mathrm{e}^{-x}-\mathrm{e}^{-2x}\right)\, dx=2 \left[\frac{1}{4} \mathrm{e}^{-2 x} (2x^2+2x+1)- \mathrm{e}^{-x} (x^2+2x+2)\right]_0^\infty = 2\left(2-\frac{1}{4}\right)=\frac{7}{2}. \] El valor de la varianza de \(X\) será: \(\mathrm{Var}(X)=\frac{7}{2}-\left(\frac{3}{2}\right)^2 = \frac{5}{4}.\)

  • La variable \(Y\) era exponencial de parámetro \(\lambda =2\). Por tanto, \(E(Y)=\frac{1}{2}\), \(\mathrm{Var}(Y)=\frac{1}{4}\).

El coeficiente de correlación entre las variables \(X\) e \(Y\) será: \[ \rho_{XY}=\frac{E(X\cdot Y)-\mu_X\cdot \mu_Y}{\sqrt{\mathrm{Var}(X)}\cdot\sqrt{\mathrm{Var}(Y)}}=\frac{1-\frac{3}{2}\cdot \frac{1}{2}}{\sqrt{\frac{5}{4}}\cdot\sqrt{\frac{1}{4}}}=\frac{\sqrt{5}}{5}\approx 0.447. \] Vemos que la correlación entre las variables \(X\) e \(Y\) es positiva pero no demasiado ya que su valor no está cercano a 1.

Ejemplo normal bidimensional

Recordemos que la función de densidad de la variable aleatoria normal bidimensional es: \(f_{XY}(x,y)=\frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{(x^2-2\rho xy+y^2)}{2(1-\rho^2)}},\ -\infty <x,y<\infty.\)

Las variables aleatorias marginales eran normales estándard o \(N(0,1)\).

Hallemos el coeficiente de correlación \(\rho_{XY}\) en este caso.

Calculemos \(E(X\cdot Y)\): \[ \begin{array}{rl} E(X\cdot Y) & = \int_{-\infty}^\infty x y \frac{1}{2\pi\sqrt{1-\rho^2}}\mathrm{e}^{-\frac{(x^2-2\rho xy+y^2)}{2(1-\rho^2)}}\, dy\, dx = \frac{1}{2\pi\sqrt{1-\rho^2}}\int_{x=-\infty}^{x=\infty}x \mathrm{e}^{-\frac{x^2}{2(1-\rho^2)}}\int_{y=-\infty}^{y=\infty}y \mathrm{e}^{-\frac{(-2\rho xy+y^2)}{2(1-\rho^2)}}\, dy\, dx \\ & = \frac{1}{2\pi\sqrt{1-\rho^2}}\int_{x=-\infty}^{x=\infty}x \mathrm{e}^{-\frac{x^2}{2(1-\rho^2)}} \mathrm{e}^{\frac{\rho^2 x^2}{2(1-\rho^2)}} \int_{y=-\infty}^{y=\infty}y \mathrm{e}^{-\frac{(y-\rho y)^2}{2(1-\rho^2)}}\, dy\, dx,\\ &\ \qquad\mbox{ cambio de variable en la segunda integral $z=\frac{y-\rho x}{\sqrt{1-\rho^2}}$,}\\ & = \frac{1}{2\pi\sqrt{1-\rho^2}}\int_{x=-\infty}^{x=\infty}x \mathrm{e}^{-\frac{x^2}{2}} \int_{z=-\infty}^{z=\infty} \left(z\sqrt{1-\rho^2}+\rho x\right)\sqrt{1-\rho^2}\mathrm{e}^{-\frac{z^2}{2}}\, dz\, \\ & = \frac{1}{2\pi} \int_{x=-\infty}^{x=\infty}x \mathrm{e}^{-\frac{x^2}{2}} \left(\sqrt{1-\rho^2}\int_{z=-\infty}^{z=\infty} z \mathrm{e}^{-\frac{z^2}{2}}\, dz +\rho x \int_{z=-\infty}^{z=\infty}\mathrm{e}^{-\frac{z^2}{2}}\, dz \right)\, dx \end{array} \]

Ejemplo normal bidimensional

Ahora, usando que el valor esperado de una variable \(N(0,1)\) es cero tenemos que: \(\int_{z=-\infty}^{z=\infty} z \mathrm{e}^{-\frac{z^2}{2}}\, dz =0,\) y usando que la integral de la función de densidad de la \(N(0,1)\) (\(\frac{1}{\sqrt{2\pi}}\mathrm{e}^{-\frac{z^2}{2}}\)) sobre todo \(\mathbb{R}\) es 1, tenemos que: \(\int_{z=-\infty}^{z=\infty} \mathrm{e}^{-\frac{z^2}{2}}\, dz =\sqrt{2\pi}.\)

Por tanto, \[ E(X\cdot Y)=\frac{\rho}{2\pi} \int_{x=-\infty}^{x=\infty} x^2 \mathrm{e}^{-\frac{x^2}{2}}\sqrt{2\pi}\, dx=\frac{\rho}{\sqrt{2\pi}}\int_{x=-\infty}^{x=\infty} x^2 \mathrm{e}^{-\frac{x^2}{2}}\, dx. \] Por último, usando que la varianza de la distribución \(Z=N(0,1)\) es 1, tenemos que \(\mathrm{Var}(Z)=E\left(Z^2\right)-E(Z)^2\). Como \(E(Z)=0\), deducimos que \(E\left(Z^2\right)=1\): \[ \frac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty x^2\mathrm{e}^{-\frac{x^2}{2}}\, dx=1,\ \Rightarrow \int_{-\infty}^\infty x^2\mathrm{e}^{-\frac{x^2}{2}}\, dx=\sqrt{2\pi}. \] El valor de \(E(X\cdot Y)\) será: \[ E(X\cdot Y)=\frac{\rho}{\sqrt{2\pi}}\sqrt{2\pi}=\rho. \]

Ejemplo normal bidimensional

La correlación entre las variables \(X\) e \(Y\) es precisamente \(\rho\).

Ahora, usando que \(\mu_X=\mu_Y=0\) y \(\sigma_X=\sigma_Y=1\) ya que recordemos que las marginales son \(N(0,1)\), el coeficiente de correlación entre las variables \(X\) e \(Y\) será: \[ \rho_{XY}=\frac{E(X\cdot Y)-\mu_X\cdot \mu_Y}{\sqrt{\mathrm{Var}(X)}\cdot\sqrt{\mathrm{Var}(Y)}}=\frac{\rho-0\cdot 0}{1\cdot 1}=\rho. \] Por tanto, \(\rho\) es el coeficiente de correlación entre las variables \(X\) e \(Y\) y mide lo correlacionadas que están dichas variables.

Incorrelación e independencia

Hemos visto que si dos variables \(X\) e \(Y\) son independientes, entonces son incorreladas, o sea, la covarianza es 0 (\(E(X\cdot Y)=E(X)\cdot E(Y)\)).

El recíproco, sin embargo, es falso. Veamos un ejemplo de variables incorreladas que no son independientes.

Ejemplo de variables aleatorias incorreladas pero no independientes

Consideremos la variable aleatoria bidimensional continua con función de densidad: \[ f_{XY}(x,y)=\begin{cases} \frac{3}{8}(x^2+y^2), & \mbox{si }(x,y)\in [-1,1]\times [-1,1],\\ 0, & \mbox{en caso contrario.} \end{cases} \]

Dejamos como ejercicio comprobar que es una función de densidad. O sea, que es positiva y que la integral sobre todo el plano vale 1.

Ejemplo de variables aleatorias incorreladas pero no independientes

Calculemos las densidades marginales: \[ \begin{array}{rl} f_X(x) & = \int_{-1}^{1} \frac{3}{8}(x^2+y^2)\, dy = \frac{3}{8}\left[x^2 y+\frac{y^3}{3}\right]_{-1}^1 =\frac{3}{8}\left(2 x^2+\frac{2}{3}\right)=\frac{3}{4} x^2+\frac{1}{4}, \\ f_Y(y) & = \int_{-1}^{1} \frac{3}{8}(x^2+y^2)\, dx = \frac{3}{8}\left[\frac{x^3}{3}+y^2 x\right]_{-1}^1 =\frac{3}{8}\left(\frac{2}{3}+2 y^2+\right)=\frac{3}{4} y^2+\frac{1}{4}. \end{array} \]

Los valores esperados de cada variable \(X\) e \(Y\) serán: \[ \begin{array}{rl} E(X) & =\int_{-1}^1 x \left(\frac{3}{4} x^2+\frac{1}{4}\right)\, dx =0, \mbox{al integrar una función impar,}\\ E(Y) & =\int_{-1}^1 x \left(\frac{3}{4} y^2+\frac{1}{4}\right)\, dx =0, \mbox{al integrar una función impar.} \end{array} \]

Ejemplo de variables aleatorias incorreladas pero no independientes

El valor de la correlación entre \(X\) e \(Y\) será: \[ \begin{array}{rl} E(X\cdot Y) & =\int_{-1}^1\int_{-1}^1 x y \frac{3}{8}(x^2+y^2)\, dy\, dx\\ & =\frac{3}{8}\left(\int_{-1}^1\int_{-1}^1 x^3 y\, dy \, dx+\int_{-1}^1\int_{-1}^1 x y^3\, dy \, dx\right) \\ & = \frac{3}{8} \left(\int_{x=-1}^{x=1}x^3 \left[\frac{y^2}{2}\right]_{y=-1}^{y=1}\, dx + \int_{y=-1}^{y=1}y^3 \left[\frac{x^2}{2}\right]_{x=-1}^{x=1}\right)=0. \end{array} \] El coeficiente de correlación entre \(X\) e \(Y\) será: \(\rho_{XY}=E(X\cdot Y)-E(X)\cdot E(Y)=0-0\cdot 0=0\). Por tanto, son incorreladas.

En cambio no son independientes ya que claramente si \((x,y)\in [-1,1]\times [-1,1]\), \[ f_{XY}(x,y)=\frac{3}{8}(x^2+y^2) \neq f_X(x)\cdot f_Y(y)=\left(\frac{3}{4} x^2+\frac{1}{4}\right)\cdot \left(\frac{3}{4} y^2+\frac{1}{4}\right). \]